روش پیش تعلیم سریع بر مبنای کمینه سازی خطا برای همگرائی یادگیری شبکه های عصبی با ساختار عمیق

نویسندگان

سیده زهره سیدصالحی

تهران نارمک خ مدائن پلاک 73 واحد 5 سید علی سیدصالحی

چکیده

در این مقاله با توسعه روش های موجود و بر مبنای کمینه سازی خطا و حفظ تمایز بیشینه مابین نمونه ها یک روش پیش تعلیم لایه به لایه سریع و کارا جهت مقداردهی اولیه مناسب وزن ها در شبکه های عصبی با ساختارهای عمیق ارائه شده است. تعلیم شبکه های عصبی عمیق به دلیل مواجه با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. درحالیکه با مقداردهی اولیه مناسب وزن های شبکه به جای مقادیر تصادفی در ابتدای مسیر تعلیم، می توان از بسیاری از کمینه های موضعی اجتناب نمود. در این روش شبکه عصبی چند لایه به تعداد متناظری شبکه با یک لایه پنهان شکسته می شود و ابتدا این شبکه های تک لایه تعلیم داده می شوند. سپس مقادیر وزن حاصل از تعلیم اینها در شبکه عصبی اصلی قرار داده می شود و برای تنظیم دقیق وزن ها، تعلیم یکپارچه صورت می گیرد. روش پیشنهادی برای پیش تعلیم شبکه عصبی خودانجمنی 5 لایه پنهان جهت استخراج مؤلفه های اساسی غیرخطی چهره برای دادگان بسفروس مورد استفاده قرار گرفت. مقایسه میانگین نتایج شبکه های عصبی با مقداردهی اولیه تصادفی و مقداردهی با روش پیش تعلیم لایه به لایه نشان می دهد که این روش پیش تعلیم علاوه بر اینکه سرعت همگرائی تعلیم را بهبود می دهد، قدرت تعمیم شبکه را نیز بالا می برد. به گونه ایکه با وجود خطای تعلیم یکسان، با بکارگیری روش پیش تعلیم لایه به لایه برای مقداردهی اولیه وزن ها، خطای بازسازی هر پیکسل %69/13 کاهش و درصد صحت بازشناسی تصاویر با استفاده از مؤلفه های استخراج شده حدود %10 رشد داشته است.

برای دانلود باید عضویت طلایی داشته باشید

برای دانلود متن کامل این مقاله و بیش از 32 میلیون مقاله دیگر ابتدا ثبت نام کنید

اگر عضو سایت هستید لطفا وارد حساب کاربری خود شوید

منابع مشابه

روش پیش‌تعلیم سریع بر مبنای کمینه‌سازی خطا برای همگرائی یادگیری شبکه‌های‌ عصبی با ساختار عمیق

In this paper, we propose efficient method for pre-training of deep bottleneck neural network (DBNN). Pre-training is used for initial value of network weights convergence of DBNN is difficult because of different local minimums. While with efficient initial value for network weights can avoided some local minimums. This method divides DBNN to multi single hidden layer and adjusts them, then we...

متن کامل

روش پیش تعلیم لایه به لایه دوسویه برای تعلیم شبکه های عصبی عمیق

در این مقاله، یک روش پیش تعلیم دوسویه برای همگرا نمودن تعلیم شبکه های عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکه ها به دلیل مواجه بودن با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. این در حالی است که با مقداردهی اولیه مناسب وزن های شبکه، می توان از بسیاری از کمینه های موضعی اجتناب نمود. روش پیش تعلیم لایه به لایه دوسویه روشی سریع و کارا می باشد که در یک مسیر دوسویه به ط...

متن کامل

روش پیش‌تعلیم لایه‌به‌لایه دوسویه برای تعلیم شبکه‌های عصبی عمیق

در این مقاله، یک روش پیش‌تعلیم دوسویه برای همگرا نمودن تعلیم شبکه‌های عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکه‌ها به‌دلیل مواجه بودن با تعداد بالای کمینه‌های موضعی اغلب همگرا نمی‌گردد. این در حالی است که با مقداردهی اولیه مناسب وزن‌های شبکه، می‌توان از بسیاری از کمینه‌های موضعی اجتناب نمود. روش پیش‌تعلیم لایه‌به‌لایه دوسویه روشی سریع و کارا می‌باشد که در یک مسیر دوسویه به‌ط...

متن کامل

پالایش شرح گذاری مجموعه تصاویر با مقیاس بزرگ با یادگیری انتقالی در شبکه عصبی کانولوشنال عمیق

فرآیند پالایش شرح ­گذاری تصاویر، رویکردی موثر در بهبود بازیابی تصاویر مبتنی بر برچسب می‌باشد. در شبکه ­های اجتماعی و موتورهای جستجو بسیاری از تصاویر دارای تگ ­های مبهم، ناقص و بی­ ارتباط با محتوا هستند. وجود این تگ ­های غیرقابل اعتماد، موجب کاهش دقت بازیابی تصاویر می ­شود. از این­رو در دهه اخیر، الگوریتم ­هایی با عنوان پالایش تگ (TR) مطرح شده‌اند که به رفع نویز و غنی‌سازی برچسب‌های تصاویر می‌پر...

متن کامل

رویکرد کمینه سازی خطا در روش های حرکت شبکه

روش های حرکت شبکه در مسائلی که دارای نغییرات بزرگ و شوک های مقطعی و ناگهانی هستند با ارائه شبکه های انعطاف پذیر تقریب مناسبی ارائه می دهند. در این پایان نامه، روشی جدید برای توزیع مجدد شبکه در شکل های اویلر و لاگرانژ معادله برگر یک بعدی ارائه می شود که آن را رویکرد کمینه سازی خطا می نامیم. سپس روش رویکرد کمینه سازی خطا همراه با هموار سازی شبکه و کمینه سازی نرم l2 خطا را با روش های لاگرانژمحض ...

15 صفحه اول

منابع من

با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید


عنوان ژورنال:
پردازش علائم و داده ها

جلد ۱۰، شماره ۱، صفحات ۲۶-۱۳

میزبانی شده توسط پلتفرم ابری doprax.com

copyright © 2015-2023